Tak to vypadá že na nějaké padající ceny ze strany RTX4090
uvedení 4080 za <=1100$
<= 900$ 4070ti
....můžeme zapomenout,
pokud top model Radeonu vážně dokáže konkurovat jen 4080, tak nějaké slevy napříč generací mohou dál zůstat pouze v našich vlhkých snech ??
Tak to abych ještě do prasátka něco málo přihodil
Jen nějak nechápu AMD
display port s podporou 8K nás má jako z nějakého důvodu přesvědčit?
V AMD si asi myslí že budeme hrát v kině na projekční ploše osazené LED televizory zapojených do jednoho obrazu ???
Co se týká pamětí, pokud AMD chce útočit na nižší highend jako 4070(ti) s 20GB a 24GB proti 4080? ...to vážně? Já si v 1440p stále vystačím s méně než 11GB i s RT scénou,
ale jooo, víc pamětí víc Adidas
Já osobně grafiku budu kupovat kvůli výpočetnímu výkonu GPU, jestli teda někdo půjde po Radeonu kvůli tomu že v nižším highendu dostane 20GB paměti a DP pro 8K, je to pochopitelně jeho volba
Odpovědět0 6
Ty mas nejake divne pocty..
Podle testu Computerbase je 4080 cca 35% nad 6950x. Pokud bych vzal udaje AMD, ze jsou pravdive, tak je 7900XTX 55% prumerne nad 6950x. Takze vychazi z toho 20% nad 4080 plus minus autobus. A to pri o 20% vyssim MSRP 4080 oproti 7900XTX.
I kdyby jsi vzal nejnizsi odhad, ze je 7900XTX jen 35% nad 6950X, porad by byla pri stejnem vykonu podstatne levnejsi.
Kde tady dela AMD neco spatne, opravdu nechapu.
RT mne principielne nezajima.
Odpovědět6 1
Jestli má 6950X výkon 100 (třeba v fps) a RTX 4080 o 35 % více, je to 135 fps. Pokud má 7900 XTX o 55 % více, máme 155 fps. 155 proti 135 není 20 %, ale "jen" 15 %. I tak to ale nic moc zásadního nemění.
Odpovědět1 0
Diky za korekturu :) Pracovni den byl dlouhy..
Odpovědět0 0
A) propustnost můžeš užít buď pro vyšší rozlišení nebo pro vyšší frekvenci ?
B) J, výkon GPU, tzn welcome AMD ?
Moc nerozumím, s čím vlastně polemizuješ ?
Odpovědět2 0
Zo strany AMD to je kapitulácia a vyvesenie bielej vlajky. Nvidia zasadne na trón nasledujúce dva roky.
Odpovědět3 14
jenm kratky dotaz.. proc?
Jestli jsi schopny tuto jednoducho otazku odpovedet.
Odpovědět3 1
No to teda nevím, co je to za trůn...žravé, obrovské karty s hořícím konektorem za nesmyslné ceny...tím bych se moc nechlubil...
Odpovědět8 1
Zrovna ten hořlavý konektor bych si docela odpustil. Dost často pouštím na pc něco dělat a odejdu od něj. Představa, jak se vrátím z nákupu a PC místo hotové práce k odeslání bude spálené je dost fujky fuj. O variantě zvonícího telefonu "dobrý den, tady hasiči" už vůbec nemluvě. Jako sorry, ale tohle je epic fail. Pokud NV věděli, co ten konektor dělá, vůbec to nemělo jít ven, to je na hromadnou žalobu. Potažmo ze strany regulátora je to podle mě na zákaz prodeje. Nebezpečný výrobek, riziko požáru, nazdar bazar, Sešrotujte si to a zaplatíte pokutu x milionů...
Odpovědět10 0
"Nové rozhraní DisplayPort 2.1 přináší také mnohem větší propustnost, konkrétně 54 Gbps místo 32,4 Gbps u verze 1.4a použitého u Nvidie. "
------
To si opravte, DisplayPort 2.1 má propustnost 77.37 Gbit/s...
Odpovědět0 0
Nikoli v případě AMD. Ti používají jen 54Gbps verzi (viz obrázek). DP2.1 existuje ve třech variantách se 40, 54 a 80 Gb/s.
Odpovědět5 0
Tak to asi ještě nějaký ten pátek zůstanu u své 6800 xt(uv+oc, která je ve 1440p někde mezi 6900xt a 6950 xt ale spíš blíž té 6950) :-D
Uvidíme, co přinese přístí generace.
Odpovědět2 0
Hm, uvidíme. Ale osobně bych s jásáním/nenávistí počkal jednak na skutečné srovnání ve hrách, až bude obojí vydané, plus jaký bude input lag s použitím oněch "vylepšovadel" a jak bude na člověka působit obraz v pohybu. Screenshot je hezká věc, ale jak to vypadá, když se scéna hýbe?
Odpovědět7 0
To je jednoduché, nepoužívej "vylepšovadla". Prostě velký rasterizační výkon, vysokou frekvencí monitoru, PCIE4, DP2.0, AMD ZEN3D a jedem?
Odpovědět4 0
A proč jsem to asi zmínil, že? :) Podle mě jsou tahle šidítka na dohnání nmedostatečného výkonu v lepším případě rozporuplná, v hoším spíš kontraproduktivní. Podobně jako s foťákem. Foton, který neprojde objektivem se software může pokusit odhadnout a dopočítat, ale nikdy to není tak čisté, jako když se fotka vzala "na první dobrou" kvalitně a foton byl zachycen.
Odpovědět5 0
Renderování 3D grafiky ve hrách je vždy o kompromisu mezi komplexností renderované scény a rychlostí, jakou se bude vykreslovat na HW existujícím v době vydání. Udělat dokonale fotorealistickou grafiku v nějaké hře bylo možné už před řadou let, ale bylo by to k ničemu, když by se to na běžně dostupném HW téměř nehýbalo. I samotní herní vývojáři už od prvopočátku používají při designování her všemožná šidítka k tomu, aby svému výtvoru zajistili pokud možno co nejvyšší framerate na běžně dostupném desktopovém HW a zároveň co nejlepší grafické podání. Nevidím žádný rozdíl v tom, pokud jde o postup pro dosažení vyššího výkonu (šidítko) jen na straně samotného herního enginu a práce vývojářů, nebo pokud je téhož cíle dosahováno za pomocí nějaké speciální funkce, kterou disponuje konkrétní HW (v tomto případě novější generace GPU). Je to dobré téma na diskuze a všemožná zkoumání, ale pokud jde o princip jako takový, nejde vůbec o nic nového nebo nějak nežádoucího.
Odpovědět9 0
Jasně, princip je ok, ale tady je problém, že se to napřed se šidítky vyrenderuje menší a pak ještě upscaluje takže dvojitá degradace obrazu. A k tomu zpoždění. V single playeru se engine přizpůsobí, ale v multiplayeru dostanete headshot od hráče, kterého ještě ani nevidíte.
Odpovědět2 1
Osobně taky nejsem příznivce DLSS 3.0, jelikož motivací pro upgrade HW při hraní her je pro mě především zlepšení odezvy systému na mé reakce. Jen bych tyto různé postupy, jak zlepšit rychlost renderování (resp. v DLSS 3.0 dojem z plynulosti pohybu), neoznačoval jako "šidítka", protože to jsou prostě jen další způsoby, jak docílit pomocí co nejnižšího snížení kvality zobrazené scény co nejvyššího výkonu. Mít více možností, jak tohoto výsledku docílit, je rozhodně lepší než naopak. Koneckonců tyto technologie jdou v nastavení snad vždy vypnout. Pokud jde o upscaling, to je právě o těch kompromisech. Jakou metodou se dosáhne lepšího kompromisu může být uživateli naprosto jedno - jeho zajímá kvalita zobrazené scény a framerate.
Z mé vlastní zkušenosti mohu říct, že při nastavení DLSS na režim nejvyšší kvality jsem zatím nikdy neměl potřebu jej vypínat, jelikož ten vizuální rozdíl oproti stavu bez DLSS nebyl takový, aby mělo smysl mít kvůli tomu nižší FPS. Třeba bych to v nějakých konkrétních případech vnímal jinak, ale zatím jsem se s tím nesetkal. A když už, tak bych prostě v daném případě DLSS deaktivoval. Pokud má uživatel na výběr, není co řešit.
Jakým způsobem Nvidia používá výkonnostní výsledky karet z řady RTX 40 s aktivním DLSS 3.0 v porovnání s ostatními kartami bez DLSS 3.0, to už je věc druhá, protože takové srovnání je dost zavádějící. Ale to je záležitost marketingu té firmy, ta technologie jako taková kvůli tomu špatná není (ačkoli ji neplánuji využívat, může někomu v případě některých her přijít vhod, viz nejnovější Flight Simulator).
Odpovědět0 0
S ohledem na fly-by-wire u moderních letadel může být odpovídající lag součástí realistického zážitku.
Odpovědět0 0
A co take za narocne FPS hrajes????
Odpovědět0 0